Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
7.7.2005, Patrik Steiner, Martin Štěpánek, recenze
S recenzí nové grafické karty GeForce 7800 GTX jsem se docela opozdili, ale vše jen proto, abychom mohli přinést opravdu podrobné testy. Nově jsme se také podívali, jak na tom jsou grafické karty při přehrávání HD-Videa, které se začíná stále více prosazovat. Dále nechybí výsledky v nové hře Battlefield 2 a to vše i s dvojicí G70 v SLI režimu.
Lamka. | 1.8.200515:32
Jak je možné, že má Geforce 6800GT tak moc FPS ve hře battlefield 2 a to ještě na plné detaily?
Odpovědět0  0
neřeknu! :) | 27.7.200522:31
Ahoj :­)
Není to nějaká blbost, aby ve hrě Battlefield 2 měla Geforce 6800GT ­- 212,6 FPS v rozlišení 1024x768?! Všude jinde v testech měla o hodně méně! Jak je to možné?!
Odpovědět0  0
Sibr | 6.10.200514:02
Podle všeho tyto snímky odpovídají 2x GF6800GT v SLi režimu, potom je údaj pravdivý jinak težko
Odpovědět0  0
Antiloopa | 21.7.200518:45
Myslim, ze bohate bude stacit 400­-500W kvalitnejsiho zdroje. EC atd nebrat ­- primotopy ;)
Odpovědět0  0
maniekol | 17.7.200522:28
problemy z ATI 9250 nie mozna uruchomić gry wywala się
Odpovědět0  0
... | 15.7.200521:04
20x.40x vetsi vykon...nesnasim takovyhle kretensky lamy vykon bude tak 1,5x vetsi ale kompy to do pul roku dozenou
Odpovědět0  0
Lojza | 15.7.20058:30
přehled testů ­- Serious Sam 2 ­- ten asi ještě nemáte

IL2: PF ­- co takhle zkusit SLI v profilu hry vynutit? ve starsich Sturmovicich dle serveru jako Firingsquad SLI výkon navíc přináší, takže pro tuto verzi hry asi není jen profil v driverech

???? grafy průběhu Battlefield 2 ­- pokud vím, ty dema se pouští jako ­"timedemo­" ­(tzn. na rychlé kartě trvají třeba 30 sec, na pomalé třeba 90 sec­), jak se pak dají vytvořit srovnatelné křivky v grafu průběhu?? nebo to lze pustit i jinak než jako ­"timedemo­"??

Proč autor neustále komolí tolik názvů? ­(nad češtinou včetně perel ­"ale aby jste poznali­" se nemá cenu pozastavovat, ale TOMMI systems, Chronicle of Riddick, ... ­- zkuste stránky výrobce, ať víte správné názvy firem a výrobků ;­-­))
Odpovědět0  0
pepa1234548 | 14.7.200517:28
Nové konzole s jakousi novou revoluční architekturou mají prý mít o řád až dva řády větší grafický výkon než současné grafické karty na PC. Když vezmu, že taková konzole za 25tis Kč bude mít řekněmě 20­-40x větší výkon než GF7800 není pak budoucnost hraní her někde jinde?? Co vy na to? Chtěl bych poznamenat, že jsem konzoli nikdy nevlastnil a jsem příznivcem her na PC..
Odpovědět0  0
Beeeeer! | 10.7.200515:31
Četl jsem, že nejde umístit tyto dvě karty do SLI modu na tuto desku, protože tam druhé kartě vadí kondenzátor, který je na desce. Je to možné?
Odpovědět0  0
Beeeeer! | 10.7.200515:35
Jo už to tam v diskusi řešíte takže nic :o)
Odpovědět0  0
Vincent2005 (8) | 8.7.200521:18
Pěkná recenze to se musí nechat, ale testovat nejlepší grafickou kartu současnosti na takto pomalém CPU je naprostá zbytečnost. Veškeré testy jak syntetické tak herní byly tudíž naprosto k ničemu. Volil bych silně přetaktovaný FX­-55 poté byste poznali brutální rozdíl... Prostě nechápu proč si tak věhlasný web jako Svět hardware nesehnal na testování nejsilnější sestavu.
Testy tudíž byly naprosto zbytečné a odrazují zájemce od koupě, jelikož jsou velice neprůkazné.
Odpovědět0  0
siro | 10.7.200516:26
A povedz kto ma doma fx­-55 brutalne pretaktovanu? Najviac procesorov v skupine HI­-End je okolo 3.2 ghz od intelu a 3500+ od amd. takže potom ten test bol pre tich ktori maju len tieto takzvane slabsie procesori.
Odpovědět0  0
Lizzard (3) | 8.7.200519:44
Recenze to možná neni nejhorší, ale u 3D Marku03 je to nějaké zmatené ­- že prý 7800 GTX má nad 21000 a že je to pěkné, i když to není oněch slibovaných 100%.... Nad 21000 mají pouze obě testované SLI varianty, samotná 7800 tam dle vašeho grafu dosáhla nějakých 16000, což je nárůsta tak maximálně o něco málo víc než 20%, neboli celkem ubohost, vzhledem k tomu, jakej humbuk se okolo toho dělá.

Buď jsem něco přehlédl, nebo byste si po sobě ty recenze měli alespoň jednou zkontrolovat.
Odpovědět0  0
Petr"Queen" | 8.7.200516:54
Kdyz uz budete testovat nejakou grafiku, tak aspom ten 3DMark2005 puste se ZVUKEM ­(viz demo 3DMark2005­) , pak se pochlubte kolik FPS tam vubec bylo. Ono pak si kazdy udela obrazek jak je na tom ta grafika. Jinak pekny clanek a vceklu dobre testy.
Odpovědět0  0
TomRocek | 7.7.200523:41
U Radeonu vubec zasny AA 4x a AF 8x nebezel. Protoze neni mozny aby tato i kdyz pomerne dobra karta mela stejny vysledky jako bez techto vylepeseni obrazu...Tak se na to podivejte protoze to je prinejmensim blbost...A vubec vam nebylo divne ze bez vyhlazovani a filtrovani je pomerne hluboko v poli a s vyhlazovanim a filtrovanim je i nekdy prvni ale vetsinou porazi 7800GTX ktera ma mnohem vetsi vykon? Divny...pokud tomu tak opravdu je tak Radeon X850XT PE je vytez testu v pomeru CENA­/VYKON pri FSAA a AF
Odpovědět0  0
Kekis | 7.7.200517:29
Nez se autor pusti do psani clanku o grafikach tak at se nauci merit protoze vysledky jsou naprosto bezcene. Nekdo na to upozornoval OCGURU a jak koukam tak pravda je jeste daleko horsi. Kde jste proboha vytahli ty vysledky? Radeony nikdy nebyly v OGL vykonnejsi ale vy jste koukam prepsali cele OGL core u Catalystu. Cheers protoze jste znehodnotili cely clanek. At se podivam na Doom nebo Sama vsechno stejna tragoska. Hodne stesti priste
Odpovědět0  0
anonymous | 7.7.200516:08
nechtely by jste pls popsat jak testovat s tim Battlefield 2 ?jak to demo zapnout, neb sem nepochopil ze ste neco stahovaly z guru...
Odpovědět0  0
anonymous | 12.7.200510:38
[odkaz, pro zobrazení se přihlaste]
Odpovědět0  0
@NdREj | 7.7.200515:58
Plne zdielam názor ­[aMd­]Mica !!!
Odpovědět0  0
[aMd]Mica | 7.7.200514:40
tak ako to citam tak ten vas test je pre mna viac sklamanim ako naplnenim mojich ocakavani. tak sa pytam, naco hnad vykon GK tak vysoko ked nestihaju ine veci ako napr. CPU ci RAM a pod. o SLI myslim nema cenu ani sa bavit. zaplatit tolke peniaze a celit tolkym problemom aby ste mali o par jednotiek % vacsi vykon, alebo dokonca ho vyrobok konkurencie za podstatne nizsi peniaz sundal? to je k smiechu. mali by ste tieto vase merania poslat nVidii a ziadat po nich oficialne vysvetlenie. ale to by vas uz nabuduce asi nepozvali na premieru ich noveho zeleza... Vidim, ze pri volbe referencneho PC ste mali zlu ruku vo vybere. intel je vobec od vydania prescottu riadne o nicom a ich upadok sa nielenze nezastavil ale este narasta. ake je to sucasne naj naj od AMD? FX­-57? nataktovat co to da, najlepsie pri chladeni niecim extremnym ­(Prometea s novym Mach II GT okolo ­-55C pri nabootovani PC­) a pouzit aj nejake exkluzivne pamate ­(asi zo zlatym chladicom­). ked ani potom by neboli vacsie rozdiely, tak by bola na mieste otazka, na co vlastne minaju spolocnosti tolke peniaze? na vyvoj? to je ako testovat nejaky automobilovy sportovy special na obycajnych gumach. s takou zostavou by ale bola uz namieste aj otazka naco tolko penazi na gamesy ­(cena s adekvatnym vybavenim ako je LCD a pod kludne aj cez 200k­). co sa tyka Fuda tak sa vlastne uz ani netesim. budu to vsetko papierove vysledky ale na tie realne jednoducho nebude adekvatny hardver. a vlastne na tieto karty este neexistuju ani poriadne odladene hry. a ovladace nie su poriadne ani na starsie GF ­(a uz nikdy ani nebudu, to je bohuzial cena za takyto nerozumne rychly pokrok vo vyvoji hardware­).
praca na teste bola urcite velka a nechcem aby to vyznelo ze nestala za nic. kritika, ako kazdy dufam pochopil, smeruje skor vseobecne na hlavy spolocnosti ako nVidia a ATI a pod. Co mi v testoch chyba je viac zamerany test aj na take aspekty ­(okrem vykonu­) ako je spotreba pri roznych cinnostiach a tiez meranie teploty ­(okrem tych v ovladacoch tak aj manualne pomocou bezdotykovych meracov­) a ich porovnanie. myslim ze tych testov bolo az prilis vela a s postupnym sklamanim ake som ziskaval pri ich studovani som tie dalsie a dalsie len coraz viac znechuteny ­(z dosiahnutych vysledkov­) preskakoval. urcita naplast boly grafy z battlefield2 ale to nezachranilo celkovy dojem z nepresvedciveho vykonu tejto horucej novinky. tak si hovorim, ze cas na vymenu mojej FX5900XT este stale neprisiel ­(aj ked ide o zle navrhnutu kartu­).
P.S. neni divu, ze aj ked vyzera pekne a ma uz cez 300 mil trandikov, nezasluzi si ani bronzovu hviezdu :­-D

Odpovědět0  0
xR-> | 7.7.200516:14
Tady jde spis o budoucnost. Treba pro UnrealEngine 3 je to jedina karta, ktera ho je schopna rozhybat. Narust vykonu oproti GF6800ultra je az 2.5x. Ono shadery s az tisicem instrukci budou poradny zahul.
Odpovědět0  0
[aMd]Mica | 7.7.200517:50
ja to beriem, ale to je zase situacia snad spred roka stara, ked vysla GF6800ka a vsade sa pisalo o jej PS a VS tretej generacie. a az teraz sa tieto hry dostavaju do predaja. A vacsina titulov sa koli marketingovym dovodom a koncorocnym odmenam naplanuje na Vianoce 2005 a to uz tu snad bude aj novinka od ATI so sialenym teoretickym vykonom. a nVidia pekne dorovna krok a vyda svoju ultra verziu ­(mozno uz jadro G80?­). len keby tak chceli dorovnat krok aj vyrobcovia ostatneho hardveru. ono to tak vyzera ­(ked je nieco brzdene inym kusom hw­) ze CPU su o celu jednu generaciu za GPU, pamate a zbernice snad aj o 2 generacie a disky s ostatnym hw aj 3 a viac. no dobre, mozno prehanam ale ked vidim 7800GTX SLI ako si vedie v testoch tak to stale nechapem, aky to ma realny dovod taketo cosi vlastnit a investovat do toho a ten vyvoj urcite stal pekny balik penazi. ja som cakal ze 3DMark 2005 takato kombinacia vyhuli cez 20000 bodov ako nic a skor som ocakaval 25000 ale ako uz bolo povedane ­- dolezitejsie su tie hry a tam je to snad este zalostnejsie. Treba si pockat na
a­/ nove ovladace ­(neverim, ze toto su dobre odladene pre nove karty­)
b­/ nove hry na novych enginoch ­(napr. ten spominany unreal3­)
c­/ nove procesory, podla vsetkeho dualove ­(uz ine sa onedlho zrejme vyrabat ani nebudu­) a to znamena ze potom uz aj
d­/ na nove Windows ­(i ked tie su ­"slubene­" az ku koncu roka 2006 a to znamena najskor 1 kvartal 2007
ale
to uz su pomaly 2 cele roky a to tu zase budeme mat nove generacie GK s mozno uz pol miliardovym poctom tranzistorov.
Radsej by som bol keby si tieto spolocnosti sadli k PC a zacali vyvijat od zakladov novu technologiu, ktora by behom 5 rokov bola na trhu a dalsia generacia by bola znovu az za 5 rokov. Ale v intervale tych umelych 5­-rocnic by mali aspon sancu softverovi developeri dostatocne adekvatne zareagovat a vypustit do sveta solidne softvery pokial co mozno najviac odladene, ktore ten hardver skutocne co najlepsie vyuziju. nech vidime za co platime! ono je inak dost jasne, ze nastava doba uzkej specializacie harverovych casti a myslim, ze za par rokov ten trh bude daleko viac zaplneny ale aj neprehladny. pride doba ked budu hry ­(uz tak dost zlozite a narocne na technologie­), ktore okrem vypocetnych jednotiek na vytvorenie obrazu budu vyzadovat dalsi procesor ­(Intel planuje dokonca dualove CPU ktore sa budu dat upgreadovat tak, ze ich budete ­"ukladat­" na seba a tym zvysovat pocet jadier­) na vypocet UI a dalsi specialny koprocesor na vypocet realnej fyziky v hre ­- vratane situacii akcia­-reakcia. tak si hovorim, ze onedlho nebude problem simulovat na PC taky ­"malicky­" jadrovy vybuch :­)
ale spat do reality dneska: tieto karty min. rok predbehli svoj cas a co je tragicke, nikdy nedosiahnu na vrchol svojej slavy, pretoze zanedlho je tu Fudo a dejiny sa zopakuju ­(GF6800GT, X800XL, GF6800Ultra, X850XL...­)

Odpovědět0  0
xR-> | 7.7.200518:08
"zacali vyvijat od zakladov novu technologiu, ktora by behom 5 rokov bola na trhu a dalsia generacia by bola znovu az za 5 rokov­" ­- tohle je socialismus.
S takovou bychom stale meli tak Voodoo3 :­). Konkurence je to, co zene vyvoj kupredu. A to znamena stale neco uvadet a vylepsovat.
Vyvoj GPU stoji stovky milionu dolaru rocne, takze se nedivme, ze ty firmy taky chteji neco ­(a co nejdraz­) prodat. Tem silencum, co kupuji kazdou novinku, bychom meli vlastne podekovat, ze to plati :­).
Navic, navrh cipu se dela pro konkretni vyrobni proces a proto neni mozne neco vyvijet 5 let.
Odpovědět0  0
zool | 8.7.200514:04
"Tem silencum, co kupuji kazdou novinku, bychom meli vlastne podekovat, ze to plati :­)­" blbost .Práve preto že takzvaný šialenci kupujú takéto karty je dnes cena grafických kariet taká ako je lebo vedia ze to predajú. Mainstream 6000­-8000 , high­-end 12000+ a low­-end má ešte vždy radeon 9000 ­(už sa to značí asi ako 9250, pomaly z toho bude aj 9800 :­) ­)za 1500­-2000 len stým rozdielom že si viete kúpiť aj 64bit verziu ktorá ma menší výkon ako mx440 a ani si to nevšimnete­( myslim na bežných uživatelov­).
Ta nova g70 preberá určite aj 90% z vývoja nv40 takže vývoj g70 vela určite nestál.­(je to aj dôvod tak rýchleho vydania karty pred ati ktorá navrhuje r520 ako úplne novú architektúru ­). Stačilo by sa zameriavat na menej pipelines a vertex shadery a zvyšovať namiesto toho frekvenciu gpu, s 8 pipeline a s frekvenciou 700 MHz by ste mali fillrate 6800GT­-čka a aj vertex shaderov by stačilo menej čo by znamenalo oveľa menej tranzistorov a chybných pipelines a vertex shaderov čiže nižšiu cenu.­(celkovo by sa zrychlil cely gpu lebo by sa zrýchlily aj vnutorné zbernice,cache pamete­)





Odpovědět0  0
xR-> | 9.7.200514:05
A zase nejaky odbornik :­). Zvysovani frekvence je presne to, cemu se ted vsichni snazi vyhnout ­(viz. dualcore CPU­). U GPU to nastesti jde jednoduse vyresit pridanim poctu pipelines. Vyssi frekvence = vyssi spotreba a ztratove teplo, vyssi naroky na konstrukci cipu a vyrobni proces.
A co se tyce tech cen, tak se mi zdaji primerene tomu, jake maji jejich vyrobci naklady. Oni proste nemuzou prodavat za min, protoze by prodelavali. Treba ATI je v soucasnosti ve ztrate.
Odpovědět0  0
zool | 9.7.200517:20
Je zaujimavé že niektoré geforce 6600 gt sa dá pretaktovať na 600 MHz a pritom sú vyrobené 110nm výrobným procesom. Stratové teplo pri takýchto malých frekvenciách vela neznamená, to len cpu­-cka sú v problémoch a preto chcú prejsť na multicore. Stratové teplo sa začína objavovať výraznejšie pri vyšších frekvenciách nad 2 GHz a zavisí aj od výrobného procesu, čím menšie vzdialenosti medzi tranzistormi a vyšia frekvencia, tým večšie straty.S 110nm výrobným procesom by sa dalo urobiť 700 MHz GPU. ­"Vyssi frekvence = vyssi spotreba a ztratove teplo, vyssi naroky na konstrukci cipu a vyrobni proces­" omyl, všetko je funkciou konštrukcie čipu. Od začiatku keď sa uvažuje s vysokou frekvenciou a nízkou spotrebou tak by sa dalo v pohode dosiahnuť 1 GHz s 90nm výrobným procesom ­(pravdaže nie pre 16 či 24 pipelines­). Taký low end gpu s 4 pipelines a 1GHz by mal poriadny fil­-rate s 2 vertex shadermy by mal geometrický výkon 6800GT :­). Ale firmy ako ATI či NVDIA niečo také nikdy neurobia lebo by to bolo lacné a výkonné čiže vlastné čipy staršej generácie by stým ihned zabili ­(nikdo by si ich už nekúpil­) takže radšej zvyšujú pipelines a MHz ostáva starý ­(viď 7800­).




Odpovědět0  0
xR-> | 9.7.200518:26
Nemuzes srovnavat CPU a GPU. Vyrobci CPU maji vlastni tovarny a pouzivaji specialni techniky navrhu a vyroby, ktere umoznuji vyssi frekvence. A neni to nic z toho, o cem je mozne se bezne docist.
Dukaz: GF6800U zere asi 110W na nejakych 400 MHz ­- to je vic, nez maji Athlony64 na 2.6 Ghz a neni to jen tim, ze ma vic tranzistoru. Spotreba roste s frekvenci daleko rychleji, nez s pocten tranzistoru ­- to je fyzika.
A je NAPROSTY NESMYSL, ze by mohli udelat stejny cip s vyssi frekvenci, ktery by byl stejne vykonny jak ty s vice pipelines a soucasne to bylo na vyrobu levnejsi. Mezi ATi a nV panuje tak obrovsky konkurencni boj, ze by ho okamzite udelali.
Odpovědět0  0
zool | 9.7.200521:18
Čo sa týka tej spotreby GPU­(6800­) a CPU tak grafický čip žerie práve preto že v ňom pracuje naraz 16 pipelines a 6 vertex jednotiek čo sú vlastne skoro samostatné zjednodušené výpočtové jednotky kým v cpu pracuje cache zaberá pomaly 60% cpu a naraz pracuje len jedna jednotka spracovávajúca daný typ inštrukcie.Práve preto pri dual core cpu­-čkach sa tak zvýrazne zvýši spotreba oproti single core.Ešte vždy tvrdím že by mohli navrnúť gpu s vyššou frekvenciou a menším počtom pipelines a bolo by to rovnako rýchle ako dnešné gpu s 8­-16 pipelines.Lenže nevydajú niečo rýchlejšie a lacnejšie keď s tým zabijú predcházdajúce ešte vždy predávajúce karty­( Viď novú 6200 agp s nv44a čipom s natívnymi 4 pipelines predávajú ako 64bit verzie pritom sa dajú v pohodee pretaktovať na 500 MHz aj viac. Keby na to dali 128bit ramky s rozumnou rýchlosťou napr 250MHz tak by si už nikdo nekúpil nejaké šunkové geforce fx alebo čisté 6600 lebo by to bolo o polovicu lacnejšie­)











Odpovědět0  0
xR-> | 9.7.200522:21
Sry, ale placas tady nesmysly.

1.CPU samozrejme pracuje jako celek a ne jen jedna jednotka a o tech instrukcich bych pomlcel :­).
2. Dualcore zvysi spotrebu asi o 30% a to je velmi dobry vysledek. Zdvojnasobeni frekvence by spotrebu zvedlo mnohem vic.
3.64b pametova sbernice se pouziva prave kvuli nizsim nakladum. Pouziti 128b je hodne drahe.
4. Jaky by melo smysl neco vyrabet schvalne draze jen proto, aby se neohrozil prodej predchazejici gen. a to navic v tuhem konkurencnim boji ? Kdyby nechteli ohrozit predch gen. tak by jen nasadili vyssi ceny a vic vydelali ne ????
5. Kdyz tomu nerozumis, tak si nehraj na chytreho a radeji si o tom neco precti.
Odpovědět0  0
zool | 9.7.200523:10
1­) jednou jednotkou­(jednou zložitou som mal napísať­) som myslel cele cpu okrem cache a všetkým čo k tomu patrí­(30­-40 mil tranzistorov­).
2­)zdojnásobenie frekvencie dnešných cpu už nie je možné :­) ináč neviem čo si chcel s tou druhou vetou povedať lebo som nechcel zvyšovať frekvenciu cpu ale gpu :­)
3­) rozdiel medzi 64 bit a 128bit zbernicovou low end kartou je dnes 300­-400 korún pri 128 MB takže neviem o čom rozprávaš.Radšej dám o 400 korún viac a mám 2*výkon v prípade tej 6200­-ky.
4­)ja som nehovoril že niečo vyrábajú schválne draho­(tak toto by už hraničilo s debilstvom lol­), ale to že vyrábajú ovela lacnejšie ako predávajú­(low­-end a mid­-range karty lebo by nikdo nekúpil 2*výkonnejšiu kartu za 4­-5 krát vačšiu cenu­).
5­)k tomuto radšej nič nenapíšem sečtelej chytráku.







Odpovědět0  0
[aMd]Mica | 9.7.200519:38
otazne je ci mame na tento ­"kapitalizmus­" a v podstate ci nan maju aj spominane firmy. Tlacit cenu nahoru ked sa vam zvysuju naklady na vyrobu je to najjednoduchsie riesenie ake clovek moze ­"vymysliet­". Som zvedavy ako si tato karta poradi s novym unreal3 enginom. Pokial jej to nepojde excelentne tak je jasne, ze sa nemusi darit ani GPU od ATi a jednym z vysvetlenim mozu byt ­"pomale­" CPU. Horsie bude ked nebudu stihat GPU. Neviem podla coho ATI vytipovala parametre pre nove Fudo. Mohlo by to byt realne zhodnotenie narokov noveho Unreal3 enginu? Ak ano, tak potom je jasne ze ani 7800GTX vam nove hry nerozhybe na max. detailoch. Snad uz coskoro sa dockame odpovedi...
Odpovědět0  0
zool | 9.7.200522:50
Neviem prečo každý plače nad slabým cpu. Keď je nejaká hra obmezdená procesorom tak ešte vždy má obyčajne 50­-60 fps­( 50 fps v 1600*1200 by som bral­) na silnejších athlonoch 64, čo v pohode postačí na hranie a je to plynulé.Horšie je to keď vám nestíha gpu­( môj prípad lol­).A čo sa týka unreal enginu 3 tak to sú hardwarové predpoklady na 1600*1200 a možno ešte aj antialiasing­(zaujímavé že na všetkých screenshotoch je zapnutý antialiasing aj AF filtering lebo nie sú tam alias efekty a aj textúry sú ostré­).V rozlíšení 1600*1200 pri komplikovaných shaderoch si to gpu poriadne zlízne ale pri nižších rozlíšeniach to určite pôjde v pohode.Nevydajú hru ktorá pôjde len plynule na 7800 a r520, bola by to samovražda­(finančná­).


Odpovědět0  0
ALF | 11.7.200510:16
"Tady jde spis o budoucnost. Treba pro UnrealEngine 3 je to jedina karta, ktera ho je schopna rozhybat. Narust vykonu oproti GF6800ultra je az 2.5x. Ono shadery s az tisicem instrukci budou poradny zahul.­"

tohle miluju :­) kdyz nekdo mluvi o budoucnosti se zhavou novinkou kdyz do doby nez se objevi gamesa co to vyuzije prijdou min. 2 nove generace a kazda vykonejsi nez predesla.. aneb dnes si koupite 7800GTX za 17k aby jste si za 2­-3roky zahraly na UE3 a pritom v te dobe 78xxx rozseka aj mainsteamova karta za 4­-5k :­) proste rada zni... dokud Vam to slusne stiha vyprdnete se na vymenu za vykonejsi kartu, az to zacne skubat pak je cas na novou...
Ja dodnes jedu na R9200, je fakt ze sice si nezahraju s AA­/AF apod ale stiha to este slusne... teprve ted zacinam uvazovat o nove VGA a narovinu... vic jak 4,5k do ni nedam. Proc? NEMA to SMYSL ­(z meho pohledu ­- to jen pro rypalky­) :)
Odpovědět0  0
anonymous | 7.7.200514:36
Docela zajimave je srovnat pocty tranzistoru, proti ATI X800­/X850 jich ma GF7800 temer dvojnasobek ­(302 vs 160­) a vykon v prumeru sotva o 15­-20 pct vyssi.
Odpovědět0  0
honza_k1 | 7.7.200511:55
Pokud jste se chystali koupit si dvě nové grafické karty 7800GTX a propojit je do SLI na základní desce MSI K8N, tak máte smůlu. Deska je sice plně kompatibilní, jenže druhé kartě stojí v cestě kondenzátor.
Odpovědět0  0
Orgic (47) | 7.7.200513:29
jezis to je pruser to sem si chtel zrovna koupit...:­))
Odpovědět0  0
Honza_K1 | 7.7.200515:41
no mne to povidej, ja sice chtel zatom GF 6600 GT od MSI, ale casem bych tam chtel dat tohle. Ja to nemam doma jen diky shode nahod, ze se mi podarilo odjet na dovolenou mnohem drive, nez jsem planoval. To bych si to ted sel hodit, protoze uz vidim jak mi tu desku urcite prodejce za nejakej mesic meni za novou :/
Odpovědět0  0
Hyper (35) | 11.7.20050:00
nerikej ze sis chtel pozdeji koupit 7800GTX do SLI..takovyho blazna neznam...A na jednu je ti to jedno. A kdyby jo, prodejce by ti to mel vyreklamovat, aspon co vim, distributori se k tomu stavi kladne.
Odpovědět0  0
Patrikhuhu | 7.7.200511:14
Dík za zařazení této hry do testu. ALE!
Tato hra je psána pro OpenGL ­(DirectX jde přes, tuším se říká wraper­), podporuje Shadery 3.0 ­(pouze Nvidia­) ­- a to si člověk musí pohrát s konfiguračním souborem. Testovat to pod DirectX nemá pro fandy této hry cenu. Je totiž předpoklad, že 7800 by svůj náskok pod OpenGL zvýšila. Škoda těch problémů s texturami. Jinak problém s SLI se popisuje i na ofic. fóru hry ­(simulároru­).
Odpovědět0  0
Patrik Steiner (31) | 7.7.200513:29
Hra byla testovana pod OpenGL..v popisku doslo k nechtenemu prohozeni.
Odpovědět0  0
o.sindler (1) | 7.7.200511:06
podle mě je ta karta na nic.Až se na trh dostane radeon s jádrem fudo, tak to bude něco.7800 GTX se propadne do temného zapomnění.typuju že fudo bude mít v pro verzi aspoň 11000 bodů 3d marku 2005 při standartnim nastavení.a v crosfire to bude potom fakt něco.
Odpovědět0  0
Def | 7.7.200512:53
A pak ses probudil, vid? :­-­) Nejvice me vzdycky bavi ti, co se rozplyvaji nad vzkony karet, ktere jsou jeste na ­"prknech­". Nekdo ti sahl na bolistko vid a tvoje milovana ATI nema dost vykonnou kartu... :­-)
Odpovědět0  0
Patrik Steiner (31) | 7.7.200514:03
No nVidie ma urcite naskok a je jen otazkou, zda skutecne ma 32 pipek, jak se usuzuje podle velikosti cipu a vyrobni technologii.
Odpovědět0  0
dur | 7.7.200510:36
Jenom drobnou poznámku, není náhodou spisovně ­" BYSTE­", nikoliv ­"BY JSTE­" ? Možná se pletu...
Odpovědět0  0
mmmaaaxxx | 7.7.200510:32
Ja by som si dovolil odbocit trochu od temy. Mam MSI 6600 Diamond a v novsich ovladacoch od 71.89 vyssie, napr aj 77.72 sa neda spustit Ridick, problem je niekde v OpenGL.
Odpovědět0  0
@ndre | 7.7.200510:54
Jj, měl sem stejný problém. Vyřešil ho ale nový RivaTuner ­(myslím RC15.6­), stáhni, nainstaluj a na záložce OpenGL zapni kompatibilitu s OpenGL rozhraním verze 1.5 ­(nejsem si jistý přesným umístěním téhle karty, píšu v práci a zkoušel jsem to doma :­).
Odpovědět0  0
Patrik Steiner (31) | 7.7.200511:04
Tento problem nastal taky..vysel fix na opravu SSE2 instrukci pro Riddicka. Pri testovani pres program BechemAll je potreba zadat napevno pouziti PS 2.0 hlavne ne PS 2.0++, pote jde vykonnost neskutecne dolu ­(radove na 10­-20% normalniho vykonu­). Takze bud to muzete vyresit jiz zminovanym programek RivaTuner nebo pohrani si s configem hry. Ale v zakladu by melo stacit aplikovani FIXu. Pocitam, ze Vam to psalo problem s OpenGL 1.3
Odpovědět0  0
DigitaldooM (137) | 7.7.20059:07
Také jsem již měl doma Leadteka 7800GTX a mohu jen potvrdit že pokud máte CPU typu 3000+,3200+,3500+ či obdobu Intely na tuto grafiku zapomeňte ten CPU ji neskutečně zdržuje se svým 3000+@2500Mhz ­(a tdy více než 3500+­) jsem dosahoval o 1­/10 nižších výkonů v 3D márcích hry jsem raději ani nezkoušel .... prostě tato karta je k těmto CPU zbytečnou investicí ...

Jako minimum bych k téhle kartě viděl 3700+ San Diego k SLI těhle karet nestačí ani 4000+ :­(

Co se týče napájení karty není problém karta mě potěšila více než 6800Ultra ta je ve všech směrech horší !

Přetaktování Ledateka je solidní mě se povedlo tušim 490,1240 což je solidní :­)


BTW: taky by mě zajímalo co dělá v testu x800PRO ! na většině webech testovaly právě proti poměr cena výkon x800XL která nejen že porazí o dost dražší 6800GT ale je vážným konkurentem k 6800U !

velice zajímavý a kvalitní test : [odkaz, pro zobrazení se přihlaste]

Celkově je GF7800GTX skvělým pokrokem ovšem pomalu ale jistě nám začíná pokulhávat zbytek HW .... jenom nechápu na čem budeme testovat ATI 520 s 32pipkama ! :­))
Odpovědět0  0
Patrik Steiner (31) | 7.7.200510:25
Mozna nejake FX­-ko to uzivi, ale Intel pokulhaval :/
Odpovědět0  0
NV | 8.7.20050:28
ANO ATI800XL porazi v nekterych hrach karty 6800GT­/ULTRA, ale je to jenom proto, ze stale vic her zacina podporovat shadery 3.0­(ktere zatim souc. ATI karty neumi­). Na kartach rady NV 6x00­/7x00 pak hry vypadaji graficky lepe, ale projevi se to nizsim FPS.
Odpovědět0  0
Mixer | 14.7.200522:33
Vizuální rozdíl mezi shadery 2 a 3 je žádná celá nula nula nic ty kecko...
Odpovědět0  0
john.don | 7.7.20059:02
Tak to vypadá že v dnešní době není hra,
která by byla schopná G70 zatížit tak,
aby FPS kleslo pod 30 ve standardním 1024*768.
Odpovědět0  0
Hráč | 7.7.20058:29
Přesně tak,dnes si koí počítač na hry s precesorem Pentium jen člověk který chce vyhodit peníze.AMD za menší peníze vyšší výkon.A proč není v testu Radek 800XL?Každý ví,že 800PRO je sračka.Ale i tak,muselo to dát hodně práce.Blahopřeji.
Odpovědět0  0
Lukfi | 7.7.20059:01
Já bych taky ocenil X800XL, myslím že je to docela dobrá grafárna vzhledem k ceně, pořídil bych si jí sice až by stála tak 3­-4 tis. ale to už asi budou nový mainstreamy od ATi i nVidie který budou míň žrát a topit... ale stejně, měl bejt taky v testu.
Odpovědět0  0
DigitaldooM (137) | 7.7.20059:08
:­)­)­)­)­)­)­)­) x800XL 3­-4tis ...v poslednídoě její cena spíše stoupala ... a než se dostane ­(jestli vůbec někdy­) na 3­-4tis tak 2­-4 roky :)
Odpovědět0  0
Petr Štefek (1098) | 7.7.200511:47
wow..kdyz jsem pouzil A64 3800+, tak mi bylo vycteno, ze sestava je slaba..coz je pravda, zde teda radeji pouzili jeste o rad slabsi Pentium. Skoda, ze jinak velmi pekne provedeny test­(po obsahove strance­) je timto do znacne miry degradovan.
Odpovědět0  0
Martin Štěpánek (439) | 7.7.200515:38
Ja se obavam, ze je uplne jedno, jestli pouzijes 3800+ nebo 3,43GHz, tak ci onak je to malo. A ani nevim, cim testovat R520, az ho zase dostaneme....
Odpovědět0  0
xR-> | 7.7.200516:53
V prve rade necim, co je shader­-limited. Takove hry teprve prijdou takze zkuste treba www.shadeview.net.
Odpovědět0  0
Herkis | 7.7.20058:09
Je jasné, že jste nezvolili moc dobrou sestavu na test grafické karty ­(Pentium4­). Obyčejný A64 3000+ by odvedl lepší práci ­(příště zkuste testovat s monochromatickým 12­" monitorem­).
Radeony jsou sice dobré GK, ale výkonostní pokles 0% po zapnutí vyhlazování ­(Doom3, The Chronicles...­) se mi vůbec nezdá.
Je mi líto, že jste si dali s testem tolik práce, když jasným závěrem je ­- netestovat výkonné GK na slabé sestavě.
Odpovědět0  0
Martin Štěpánek (439) | 7.7.200512:26
No, bohuzel se dost pletete. Ostatne to take pisu, ze na plne vyuziti G70 nestaci ani AMD 4000+ !!!! PS: diky za oceneni toho mnozstvi prace
Odpovědět0  0
Herkis | 7.7.200512:41
Přiznávám, že to s A64 3000+ byla nadsázka ­(asi nečtete, co je v závorkách­). V čem se pletu? V tom, že nemá cenu testovat výkonné GK na slabých sestavách?
A co ten ­(ne­)pokles výkonu při zapnutí FSAA? Chyba mezi židlí a klávesnicí?
Odpovědět0  0
xR-> | 7.7.200513:46
Nevim, jestli to je tento pripad ­(u D3 asi ne­), ale pokud jsou pouzity vypocetne narocne pixel­-shadery, tak FSAA ­(Multisampling­) se stava naprosto free, protoze ROP jednotky stejne cekaji desitky cyklu na data ze shaderu.
Odpovědět0  0
Herkis | 8.7.20057:51
Vzhledem k tomu, že GTX má o dost větší výkon v PS než XT850 a pokles vykazuje, tak určitě není FSAA free.
Odpovědět0  0
xR-> | 8.7.200511:23
No prave ze jo :­). Cim pomalejsi shadery, tim je MSAA vic free ­(protoze to brzdi ty shadery­).
Odpovědět0  0
Herkis | 8.7.200512:00
Asi nemám den. Tak si ze mě nedělej legraci a mrkni se na grafy na 6800, která je má určitě pomalejší a pokles tam je. Prostě u těch Radeonů někdo nezapnul FSAA. A řekni mi o nějaký OpenGL hře, kterou brzdí PS tak, že je FSAA free.
Odpovědět0  0
xR-> | 9.7.200514:11
Ja se bavim jen obecne ­- ze proste takova situace muze klidne nastat. Nevim, jestli to je zrovna tento pripad. A proc by jako OpenGL hra nemohla byt PS­-shader­-limited ?!?!?!?
Odpovědět0  0
Herkis | 11.7.20056:39
Mohla.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.